PARTICULES ÉLÉMENTAIRES - Présentation générale

PARTICULES ÉLÉMENTAIRES - Présentation générale
PARTICULES ÉLÉMENTAIRES - Présentation générale

Les physiciens poursuivent l’étude de la structure de la matière dans le but de trouver plus d’unité et de simplicité dans un monde qui nous frappe par sa diversité et sa complexité apparente. N’est-il pas remarquable de pouvoir ramener la variété quasi infinie des objets qui nous entourent aux multiples constructions de constituants fondamentaux?

Trouver ces constituants, et comprendre la façon dont ils se lient entre eux, est le but de la physique des particules élémentaires .

Il s’agit d’une physique quantique où le prix à payer pour la résolution recherchée est l’énergie de choc entre particules. La physique des particules élémentaires s’identifie presque entièrement à la physique des hautes énergies. Cette physique est aussi, de ce fait, la clé de la cosmologie moderne.

1. Essai de définition de la particule élémentaire

Nous n’avons encore jamais été déçus dans notre recherche d’unité et de simplicité, étudiant la structure de la matière avec une résolution de plus en plus poussée. Les objets macroscopiques sont constitués d’un emboîtement quasi infini de structures de plus en plus simples et moins diversifiées qui se dévoilent à tour de rôle, quand le pouvoir séparateur de l’appareil de mesure (en l’occurrence les accélérateurs de particules et les détecteurs) augmente.

Les différents niveaux de structure observables sont celui du virus, avec une taille typique de 10-7 m, celui de la molécule, d’une dimension de 10-9 m, et celui de l’atome, dont l’échelle est de l’ordre de 10-10 m (fig. 1). Continuant cette descente dans la structure de la matière, on atteint le noyau de l’atome, avec une taille typique de 10-14 m, puis le nucléon (proton ou neutron) dont la dimension est de l’ordre de 10-15 m. Les noyaux sont constitués de protons et de neutrons , liés entre eux d’une façon assez compacte. Dans l’atome, des électrons (de chargee ) compensent, par leur nombre, la charge Ze du noyau correspondant au nombre de protons qui s’y trouvent. Les électrons remplissent, par leur mouvement incessant, le relativement grand volume de l’atome, qui est mille milliards de fois plus grand que celui du noyau. À la précision des mesures actuelles, l’électron est une particule quasi ponctuelle. Son rayon est inférieur à 10-19 m. C’est une des particules élémentaires reconnues comme telles.

Les constituants de base, les fermions (quarks et leptons)

Continuant la descente au-delà de 10-15 m, on atteint le niveau des quarks , les constituants du proton et du neutron. Il y a deux quarks u (up ) et un quark d (down ) dans un proton et deux quarks d et un quark u dans un neutron. Nous pouvons étudier avec précision la structure de la matière à l’échelle de 10-18 m: on distingue alors clairement les quarks. À la précision des mesures, le quark est une particule quasi ponctuelle, donc élémentaire. Son rayon est inférieur à 10-19 m.

À partir des particules élémentaires, les deux quarks u et d de l’électron, on peut ainsi reconstituer tous les objets stables du monde, dans leur quasi infinie variété. Notre descente jusqu’à 10-18 ou 10-19 m, possible à l’aide des accélérateurs dont on dispose, permet de trouver l’unité et la simplicité dont on parlait, cachée à nos sens.

Les constituants de base, quarks et électrons, sont des fermions . Il s’agit d’un qualificatif quantique traduisant le fait que la fonction d’onde , qui décrit un système de particules identiques, est globalement antisymétrique (doit changer de signe) par échange de deux particules. Cela interdit à deux particules identiques (deux électrons, par exemple) de se trouver dans le même état: d’où l’existence d’une structure atomique où les électrons se rangent sur différents niveaux d’énergie, en couches successives, dans les atomes contenant un grand nombre d’électrons. Les électrons ne peuvent pas tous se précipiter sur le niveau d’énergie le plus bas. Dans une description en termes classiques, ils devraient même tous tomber sur le noyau en rayonnant! Ces fermions sont les briques élémentaires du monde; mais ce ne sont pas les seules particules élémentaires.

Lorsque les particules interagissent entre elles, on voit apparaître de nouveaux quarks et de nouveaux leptons . Les quarks ont des interactions fortes: c’est par leur intermédiaire qu’ils se lient en hadrons , comme le proton et le neutron. C’est le cas de l’électron qui est un des leptons chargés. Il existe aussi des leptons neutres. Ce sont les neutrinos . Tous ces quarks et ces leptons sont autant de particules élémentaires reconnues aujourd’hui comme telles. Certes, les nouveaux quarks et les nouveaux leptons chargés ne sont pas stables. Lorsqu’ils sont produits au cours de collisions entre particules stables, ils se désintègrent rapidement en donnant les quarks u et d ou l’électron e , qui sont tous de plus faibles masses. On ne saurait cependant les considérer comme des systèmes composites, construits à partir de leurs produits de désintégration. Cela ne permet pas de comprendre leurs propriétés spécifiques: ils nous apparaissent comme élémentaires.

La famille des bosons

Les interactions entre particules élémentaires, sur lesquelles nous reviendrons plus en détail, correspondent à l’émission d’un champ et à la réaction à ce champ. L’archétype est le champ électrique, créé par la présence d’une particule chargée, en influençant d’autres éléments chargés. Ces champs ont une forme quantique qui associe la force due à la présence d’un champ à un échange de particules qui sont les quanta du champ. Le quantum du champ électromagnétique est le photon ; donc les interactions électromagnétiques sont associées à l’échange de photons. De même, les interactions fortes sont liées à l’échange de gluons entre les quarks et les interactions faibles – suivant qu’elles changent ou préservent la charge des particules – à l’échange de W chargés ou de Z neutres. Le gluon, le W et le Z sont aussi des particules élémentaires. Ces quanta des champs de forces, répertoriés au niveau des quarks et des leptons, sont des bosons . La fonction d’onde décrivant des particules identiques est maintenant symétrique (ne change pas de signe) par échange de deux quelconques des particules. Il s’ensuit qu’un système de bosons peut se rassembler dans le même état où l’on peut trouver un très grand nombre de particules et non pas une seule (à l’opposé du cas des fermions). C’est cette condensation de bosons qui est à la base du fonctionnement du laser.

Voici donc une longue liste de particules élémentaires: quarks, leptons dont l’électron, bosons dont le photon, le gluon, W et Z. La liste n’est sans doute pas close.

La théorie des supercordes

En fait, la définition que nous avons pu donner à une particule élémentaire est purement négative: c’est un élément pour lequel nous ne connaissons pas de structure interne. La taille de ces particules se trouve d’ailleurs être inférieure au niveau de résolution de l’appareil; elles apparaissent toutes, en conséquence, comme quasi ponctuelles.

Il se peut cependant que d’importants progrès dans le pouvoir de résolution des instruments arrivent à y discerner un jour des structures internes. Après tout, le proton et le neutron nous apparaissaient comme élémentaires, il y a quarante ans. L’adjectif «élémentaire» traduit en fait l’incapacité à ramener ces particules à divers assemblages réalisables à partir de constituants encore plus fondamentaux. Dans le cadre de la théorie des supercordes – qui représente un des développements théoriques de pointe –, toutes ces particules ne seraient que les modes vibratoires de fréquences les plus basses d’une supercorde . La supercorde est une petite boucle refermée sur elle-même à une dimension de 10-35 m et s’étendant, dans les modèles qui semblent les plus prometteurs, sur neuf dimensions d’espace dont six seraient compactifiées sur elles-mêmes à une échelle de 10-35 m. Dans ce cadre théorique, le champ de gravitation se trouve aussi associé à l’échange de gravitons, autres particules élémentaires. Les supercordes représentent en effet le meilleur espoir présent d’unifier tous les modes d’interactions (faible, forte, gravitation, électromagnétisme). Cela permettrait de développer une théorie quantique de la gravitation. Nous resterons cependant au niveau d’exploration expérimental des quarks et des leptons qui sont les briques élémentaires décelées avec une résolution de 10-18 m. Le photon, le gluon, le W et le Z sont les particules élémentaires associées à la manifestation fondamentale des forces.

Les propriétés externes des particules élémentaires

À défaut d’une définition plus précise, on peut caractériser chaque constituant élémentaire par un ensemble de propriétés. On cherche pour cela le maximum de propriétés intrinsèques, soit indépendantes de tout système de référence particulier. Ce n’est manifestement pas le cas de la position ou de l’énergie d’une particule, mais c’est le cas de sa masse et de son spin .

La masse du constituant fondamental est indépendante de tout système d’observation. Elle relie l’énergie E et l’impulsion p , qui dépendent toutes deux du système choisi par la relation:

c est la vitesse de la lumière et m , la masse. On voit que la fameuse équation d’Einstein s’écrit:

Elle relie l’énergie au repos E0 de la particule (p = 0) à sa masse. La forme populaire E = mc 2 n’est qu’une façon de définir une «masse» dépendant de l’énergie cinétique de la particule pour prolonger, au domaine de la théorie de la relativité, la validité des équations habituelles de la dynamique.

Le spin est le moment angulaire du constituant: celui-ci tourne sur lui-même. Il s’agit d’un mouvement quantique, le moment angulaire se mesurant en unités de (où est la constante de Planck h , divisée par 2 神). Quarks et leptons ont tous un spin 1/2, ou un moment angulaire /2 quand ils sont au repos. Certaines particules n’ont pas de masse. Elles ont donc la vitesse de la lumière et il n’existe aucun système de coordonnées où elles puissent être au repos. On remplace ici le spin par la valeur maximale de l’hélicité (la composante du spin le long de l’impulsion). C’est le cas du photon et du gluon, tous deux de masse nulle. On a, dans ce cas, = 1. Ce sont des particules de spin 1 dites vectorielles. Il en est de même de W et Z qui sont très massives (86 et 97 fois la masse du proton): ce sont des bosons vecteurs . Le neutrino de masse nulle (à la précision des mesures) a une hélicité 漣 1/2, correspondant à un spin 1/2.

2. Particules et interactions

Masse et spin caractérisent les propriétés «externes» de la particule élémentaire. Cette dernière est aussi définie par des propriétés internes qui précisent la façon dont elle peut créer un champ de forces particulier et y répondre. On en distingue trois: la charge , qui caractérise la réponse de la particule aux interactions électromagnétiques; la saveur , qui permet de préciser la façon dont elle répond aux interactions faibles, et la couleur , qui détermine ses propriétés vis-à-vis des interactions fortes. Les quarks ont des charges 2/3 ou 漣 1/3 (en prenant la charge du proton pour unité). Les leptons ont des charges 漣 1 et 0 (cette dernière pour les neutrinos). La saveur est repérée par le nom que l’on donne à la particule (quark u , électron...). Les quarks existent chacun sous trois variétés de couleur: rouge, verte et bleue. Ce terme imagé traduit bien le fait que l’on peut réaliser un système neutre vis-à-vis de la couleur, c’est-à-dire blanc en combinant trois couleurs. Par exemple, les trois quarks d’un proton sont tous de couleurs différentes pour réaliser ensemble un proton qui n’a pas de couleur. Ils échangent sans arrêt leur couleur en échangeant des gluons qui portent eux aussi de la couleur. La fonction d’onde du proton reste antisymétrique par permutation de deux couleurs de quarks.

Les multiples faces de l’expérience courante se ramènent à quatre types d’interactions fondamentales: ce sont celles qui apparaissent au niveau des quarks et des leptons: gravitation, électromagnétisme, interactions forte et faible.

Les quatre types d’interactions

La gravitation implique tous les constituants qui y répondent selon leur énergie, ou selon leur masse pour les faibles vitesses: sa forme quantique est encore incertaine. La gravitation est omniprésente aux niveaux macroscopique et microscopique. Lorsque d’autres interactions peuvent se manifester, la gravitation devient tout à fait négligeable: ainsi, la force d’attraction gravitationnelle de deux protons dans un noyau n’est que 10-36 fois celle de leur répulsion électrostatique. Pour deux quarks u , à 10-18 m l’un de l’autre, le facteur correspondant est 10-41. Au niveau des particules, la gravitation ne devient relativement importante qu’à des énergies énormes. Elle ne se compare à l’interaction électromagnétique qu’à une énergie de l’ordre de 1019 GeV, alors que les plus hautes énergies possibles mises en jeu dans les expériences ne sont que de l’ordre de quelques centaines de GeV.

L’interaction électromagnétique agit sur la charge des particules. Elle affecte toutes les particules chargées indépendamment de leur saveur ou de leur couleur. Elle ignore les neutrinos. Elle est responsable de la structure atomique.

L’interaction faible agit sur la saveur des particules. Elle a deux aspects: elle peut changer la saveur – c’est en fait la seule interaction qui le permet; elle change alors aussi la charge. Un quark u devient un quark d et un électron devient un neutrino. Si elle ne change ni la saveur ni la charge, c’est l’interaction électromagnétique, qui est une forme particulière des interactions faibles. Les deux types d’interactions, faible et électronique, ignorent la couleur.

L’interaction forte distingue la couleur des particules et peut la changer, alors qu’elle ignore la charge et la saveur. Elle n’affecte pas les leptons. Elle lie les quarks porteurs de couleurs en hadrons , globalement neutres vis-à-vis de la couleur. Par exemple: trois quarks donnent un baryon, comme le proton; un quark et un antiquark donnent un méson, tel le méson 神.

L’interaction forte est responsable de la liaison des nucléons, protons et neutrons, à l’intérieur du noyau. Cela peut sembler surprenant dans la mesure où les nucléons n’ont pas de couleur. Il s’agit, dans ce cas, d’une interaction résiduelle due à la polarisation des distributions de couleur à l’intérieur des nucléons en interaction. Elle peut souvent se décrire par un échange de mésons.

Les forces associées aux bosons vecteurs

Les trois modes d’interactions, électromagnétique, forte et faible (fig. 2), présentent une grande analogie. Sous leur forme la plus simple, ils correspondent tous à l’échange d’un boson vecteur: le photon (électromagnétisme); le gluon, existant sous huit variétés de couleur (interactions fortes); le W et le Z, suivant que l’on considère son mode chargé ou neutre (interactions faibles). Dans chaque cas, le terme le plus simple est représenté par un graphe de Feynman qui donne une vue technique et précise, mais aussi visuellement intuitive de l’interaction entre particules due à l’échange d’un boson vecteur. Pour chaque type de force, on retrouve la même structure: c’est le grand progrès atteint au niveau des quarks et des leptons.

Au niveau des nucléons, interactions forte et faible présentent une grande variété et une grande complexité.

Vers une unification des interactions

On découvre aussi la propriété remarquable que toutes ces forces découlent d’un même principe d’invariance. L’invariance des lois de la physique par transformations dites de jauge (cf. Les théories de jauge, une parenthèse ) implique, en effet, l’existence des bosons vecteurs et la forme de leur couplage aux quarks et aux leptons. Qui plus est, dans ce cadre théorique, les interactions faible et électromagnétique apparaissent comme deux aspects d’un même phénomène. La même théorie explique les changements de saveur correspondant aux phénomènes radioactifs les plus courants (la désintégration B des noyaux, en particulier) et les phénomènes électromagnétiques.

On est même tenté de postuler une théorie d’unification dans laquelle les trois interactions, électromagnétique, forte et faible, ne seraient que différentes manifestations d’une interaction unique, mélangeant quarks et leptons. Elle ne devrait cependant devenir évidente qu’à des énergies énormes, de l’ordre de 1015 GeV. La théorie des supercordes y associe la gravitation au niveau de 1019 GeV.

Symétrie et diversité des particules

Revenons aux particules fondamentales, les fermions . On les regroupe en trois familles de quarks et de leptons (fig. 3). Dans chaque famille, les deux quarks et les deux leptons diffèrent par une unité de charge.

Le premier groupe rassemble toutes les particules nécessaires aux constructions stables (noyaux et atomes). La nature répète cependant ce motif deux fois.

Dans la deuxième famille, on distingue les quarks étrange s (strange ) et charmé c (charm ). Pour les leptons, on a le muon ( 猪) et son neutrino 益 size=1 (différent du neutrino de l’électron, 益e ).

Avec le troisième groupe, on a les quarks t (top ) et b (bottom , porteur de beauté); pour les leptons, le tau ( 精) et son neutrino 益 size=1. Le quark top a été mis en évidence grâce à la puissance du collisionneur Tevatron (Fermilab, É.-U.) en 1994. Sa masse est comprise entre 170 et 180 GeV. Son existence n’était pas mise en doute, dans la mesure où la symétrie entre quarks et leptons est à la base de la description théorique actuelle (fig. 3).

Dans le cadre de cette symétrie, la théorie s’accommode fort bien de ces trois familles, mais ne permet pas, par contre, de prédire leur nombre. Il semblait a priori possible qu’il en existât d’autres, avec des quarks et des leptons chargés encore plus lourds. Mais une expérience, menée à la fin de 1989 au L.E.P. (Large Electron-Positron Collider) du Cern (Laboratoire européen pour la physique des particules) à Genève, a permis de les compter. On n’en trouve que trois. Dans chaque famille, il y a un neutrino de masse nulle (à la précision des mesures). Pour compter les familles, on compte donc les espèces de neutrinos. Ces derniers, étant neutres, ne sont pas directement visibles et échappent facilement aux détecteurs car ils ne sont sensibles qu’aux interactions. Néanmoins, le Z étant couplé de la même façon aux trois espèces de neutrinos, il se désintègre d’autant plus vite qu’il y a d’espèces de neutrinos. La mesure de la durée de vie du Z permet de mesurer leur nombre et donc celui des familles. C’est ce qui fut fait.

Il existe trois familles de quarks et de leptons. Chaque quark existant sous trois variétés de couleurs, cela fait vingt-quatre particules pour les fermions. La simplicité de la nature au niveau des interactions n’est pas dans une économie de particules. Le tableau 1 rassemble les propriétés des particules fondamentales, fermions et bosons , en donnant (en plus de la couleur des quarks) la masse, le spin, la charge et la saveur. Le tableau 2 donne la force relative des interactions.

Le proton est constitué de trois quarks (u , u , d ). En remplaçant un de ces quarks par un quark s (strange , étrangeté), c (charm , charmé) ou b (bottom , porteur de beauté), on obtient des particules, les hadrons étranges, charmés ou porteurs de beauté. Certains peuvent être à la fois étranges et charmés, ne contenant qu’un quark u ou d à côté de quarks s et c ... On reconstruit ainsi tout un ensemble de particules instables, découvertes par collisions entre constituants stables. Nous connaissons bien les particules étranges, dont les premières furent découvertes au cours des années cinquante, et assez bien les particules charmées, dont les premières apparurent au cours des années soixante-dix. Nous commençons seulement à connaître les particules porteuses de beauté.

3. Le cadre théorique: le modèle standard

La physique au niveau des particules élémentaires s’exprime dans le cadre de la théorie quantique des champs. C’est le formalisme auquel on est conduit, combinant les idées clés de la mécanique quantique, de la relativité et de la causalité. Chaque particule – qu’il s’agisse des fermions de spin 1/2 (quarks et leptons) ou des bosons vectoriels associés aux forces fondamentales – est décrite par un champ quantique défini en chaque point de l’espace (x, y, z )-temps (t ). Les interactions correspondent à des couplages entre champs au même point.

Ce formalisme conduit automatiquement à deux types de solutions qui sont respectivement associées aux particules et aux antiparticules.

Les lois de conservation

Pour chaque particule (quark ou lepton), on a ainsi une antiparticule de même masse et de même spin, mais ayant des propriétés internes (charge, saveur, couleur) opposées. Au niveau des interactions connues, il y a conservation du nombre global de quarks et d’antiquarks, les antiparticules entrant dans le bilan avec un signe négatif. La transformation de l’énergie en matière ou de la matière en énergie correspond à la production ou à l’annihilation de paires particule-antiparticule. Par exemple, un électron et un positon (l’antiparticule de l’électron) s’annihilent en photons ou sont simultanément créés par la collision de deux photons. Si un quark et un antiquark s’annihilent, cela donne un W ou un Z dont la désintégration peut elle-même engendrer une paire de quark-antiquark ou de lepton-antilepton.

Dans chaque processus fondamental (fig. 2), on peut librement remplacer une particule entrante (sortante) par une antiparticule sortante (entrante). Les diagrammes de Feynman sont lus dans le sens horizontal (interaction par un processus d’échange de particules) ou vertical (annihilation d’une particule avec une antiparticule et un boson intermédiaire).

La cinématique est telle que l’on ne peut parfois pas simultanément satisfaire la relation:

pour les particules externes et la particule interne.

C’est bien sûr le cas pour l’annihilation d’un électron et d’un positon massifs et de grande énergie en un photon unique de masse nulle. La particule intermédiaire est, dans ce cas, virtuelle. Son existence, avec une énergie qui ne satisfait pas la relation:

est possible au cours d’un temps t tel que:

où E est l’écart d’énergie nécessaire.

Il s’agit là d’une fluctuation quantique par l’intermédiaire de laquelle l’interaction se manifeste. Au cours du temps t , un signal ne peut se propager que sur une distance:

Une particule virtuelle ne peut traduire une interaction qu’à très faible distance. Ce sont cependant des conditions facilement remplies dans une description de la structure de la matière avec un haut niveau de résolution. À l’échelle de 10-18 m où nous sommes, nous pouvons permettre des écarts d’énergie E de 100 GeV. À l’échelle de 10-15 m où nous étions il y a quarante ans, ces écarts d’énergie E étaient limités à 100 MeV.

Pouvoir de résolution et énergie d’interaction

Nous voyons apparaître là ce comportement quantique, omniprésent dès qu’on atteint et dépasse le niveau atomique, qui associe pouvoir de résolution et énergie d’interaction. Il a lieu selon une analogie avec la diffraction en optique, où le pouvoir de résolution est inversement proportionnel à la longueur d’onde. En physique quantique, le quantum de champ (l’énergie du photon) est inversement proportionnel à la longueur d’onde. C’est la fameuse relation de Planck:

où 益 est la fréquence; ou encore, pour une particule d’impulsion p , la fameuse relation de De Broglie:

qui relie la longueur d’onde à l’impulsion. Le prix à payer pour la résolution est l’énergie. Atteindre une résolution de 10-19 m demande 1 TeV (1 000 GeV) au niveau des quarks ou des leptons en interaction.

Nous avons vu que la simplicité ultime des interactions et leur unité totale ne se situent pas au niveau des particules fondamentales actuelles. Les supercordes ne nous suggèrent d’ailleurs cette simplicité qu’à 10-19 GeV!

La théorie électrofaible et la chromodynamique quantique

Les interactions fondamentales sont décrites dans le cadre des théories des champs. C’est le cas de la théorie électrofaible qui regroupe l’électrodynamique quantique et l’interaction faible. C’est aussi le cas de la chromodynamique quantique qui décrit l’interaction forte au niveau des quarks et des gluons. Ces deux théories représentent une avance décisive en physique, franchie de 1968 (année de la première formulation de la théorie électrofaible) à 1983 (année de la découverte du W et du Z). Ces théories sont plus complexes et généralisent l’électrodynamique quantique qui s’y trouve incluse. Cette dernière, qui décrit les interactions électromagnétiques des quarks et les leptons chargés, est déjà un des chefs-d’œuvre de la physique. Expériences et théorie dans ce domaine rivalisent de précision. On peut citer, à titre d’exemple, la mesure et le calcul du moment magnétique du muon ( 猪) qui sont en parfait accord, avec une précision qui, dans chaque cas, dépasse le milliardième (10-9).

Pour atteindre un tel niveau de précision par le calcul, il faut dépasser le terme fondamental de la théorie (fig. 2) et calculer des processus où plusieurs photons sont échangés, certains d’entre eux pouvant se décomposer en cours d’interaction en paire électron-positon. L’échange d’un photon implique son émission et son absorption. C’est un processus de deuxième degré dans le couplage entre les champs du lepton et du photon. Le huitième degré est nécessaire pour avoir une précision du milliardième dans le calcul du moment magnétique avec quatre photons intermédiaires. Ces calculs sont difficiles mais possibles. La théorie électrofaible et la chromodynamique permettent d’éliminer les infinités qui peuvent, a priori, apparaître dans le calcul et qui sont parfois déjà présentes en physique classique: dans l’interaction de deux charges à la limite de distance nulle ou dans l’interaction d’une particule avec le champ qu’elle développe. Elles doivent être éliminées dans la formulation des prédictions de la théorie. La théorie est dite renormalisable: l’élimination de ces infinités est possible grâce à une symétrie particulière de la théorie, ou grâce à une propriété d’invariance vis-à-vis de certaines transformations. Ce sont des théories de jauge .

Les théories de jauge, une parenthèse

L’invariance de jauge et les théories qui en découlent jouent un rôle central dans la description des forces au niveau des particules fondamentales. Ce nom peut sembler curieux. Il fut proposé dans les années vingt pour des théories invariantes par changements d’échelle, ou «de jauge». L’invariance d’échelle a été remplacée par une invariance par rapport à des changements de phase: on postule que les prédictions d’une théorie ne changent pas lorsqu’on effectue certaines transformations sur les objets propres à la théorie, qui sont des concepts physiques comme les champs quantiques associés aux particules et le potentiel électromagnétique. On dit, dans ce cas, que la théorie est invariante par rapport à ces transformations. Dans le cadre de la physique quantique, l’invariance de jauge (en fait vis-à-vis de changements de phase) s’est avérée être une propriété très intéressante dès les années trente. Chaque particule est décrite par une fonction d’onde. Cette fonction d’onde a une phase. Il est naturel de rechercher si la théorie est invariante au cours d’un changement global de toutes les phases, phases associées séparément à toutes les particules. En un mot, il n’y a pas de phase absolue, comme il n’y a pas d’origine absolue de l’espace et du temps, dans l’expression des lois de la physique. Si le changement de phase est chaque fois proportionnel à la charge électrique portée par la particule, on s’aperçoit que l’électrodynamique satisfait à cette contrainte.

Considérons une description de la physique utilisant un système de coordonnées, permettant de repérer positions et vitesses. Nous sommes habitués au fait que l’expression des lois physiques ne dépend pas du système de coordonnées choisi. On peut le translater et le tourner, sans que rien ne change dans la façon dont nous décrivons la physique (dont nous écrivons, par exemple, la loi de Newton ou les équations de Maxwell). Tout cela nous semble normal. Supposons maintenant que nous puissions déformer notre système de coordonnées, comme s’il s’agissait d’une feuille de caoutchouc. La physique peut-elle rester invariante à cela? Il est clair que ce ne peut être possible que s’il y a quelque chose, dans son expression, qui tienne compte de la tension, et donc de la déformation du caoutchouc en chaque point. Il faut une force avec des propriétés très particulières. Une propriété d’invariance, selon de telles transformations, implique une force et précise ses propriétés. C’est l’essence même des théories de jauge. La feuille de caoutchouc n’est qu’une métaphore. En pratique, ce sont des changements de phase, comme nous l’avons dit. De façon plus précise, cela se rattache à une notion que les mathématiciens appellent «espace fibré». Les changements de phase correspondent à un groupe de transformations qui, en mathématiques, est le groupe U(1). Dans les théories de jauge actuelles, les transformations considérées correspondent à des groupes plus vastes; elles agissent non seulement sur les phases, mais aussi sur la nature des particules et elles se combinent de façon assez complexe selon les propriétés du groupe. Elles peuvent, par exemple, transformer un quark u en un quark d ou un électron en neutrino. On a, dans ce cas, le groupe d’invariance SU(2) U(1). Il implique l’existence des forces électrofaibles et celles du W et du Z, à côté du photon. Forces électromagnétiques et forces nucléaires faibles sont, ainsi, deux aspects du même phénomène. Ces transformations peuvent aussi changer la couleur d’un quark. Le groupe d’invariance est dans ce cas SU(3). On retrouve toutes les propriétés des forces nucléaires fortes, telles qu’elles se manifestent au niveau des quarks en échangeant des gluons. C’est dans ce sens que l’on peut dire que les théories de jauge sont à la base de la physique contemporaine. Les forces fondamentales de la nature découlent d’un principe d’invariance.

Cependant, tout n’est pas résolu. En effet, une théorie de jauge implique des bosons vecteurs de masse nulle. Or comment se fait-il que le W et le Z soient si massifs? Il existe une autre difficulté majeure. Nous avons présenté les quarks comme les constituants fondamentaux. Comment se fait-il qu’on ne puisse pas les extraire des particules, les hadrons, qu’ils constituent? Ce sont des baryons formés de trois quarks comme le proton ou des mésons formés d’un quark et d’un antiquark, comme le méson 神. Toutes ces particules ont une taille de l’ordre de 10-15 m. Comment se fait-il aussi que les gluons, de masse nulle, ne soient pas émis comme des photons, lors d’une collision entre particules? Le rayonnement des gluons n’apparaît qu’à l’intérieur des hadrons. Il ne peut s’en échapper. La réponse à ces questions est dans la structure du vide qui mérite une discussion particulière.

La théorie électrofaible et la chromodynamique, toutes deux fondées sur un principe d’invariance de jauge et agissant entre les familles de quarks et de gluons, donnent une vue synthétique (et de prévisions) de la physique jusqu’au niveau de 10-18 m. C’est le modèle standard des particules et des interactions fondamentales. Il inclut aussi une description du vide.

4. Le vide en physique quantique et le quark isolé, insaisissable

Le vide est, par définition, l’état d’énergie le plus bas. L’énergie est présente sous forme de matière (quarks et leptons) et de rayonnement (bosons vecteurs); le vide est ce qui reste quand on a tout enlevé.

En physique quantique, ce vide est très mouvant. Y apportant de l’énergie sous forme de particules ou de rayonnement, on peut créer des paires de particule-antiparticule ou des bosons vecteurs. Toute la physique est potentiellement présente dans le vide. Néanmoins, si tout champ peut apparaître dans le vide de façon spontanée par fluctuation quantique, quand on l’observe au cours d’un temps très court t , qui permet une fluctuation d’énergie:

la valeur moyenne 麗 祥 礪 de ces champs y est nulle. C’est cette propriété 麗 祥 礪 = 0, pour tous les champs déjà rencontrés (quarks, leptons, bosons vecteurs), qui définit en principe le vide. Cette condition n’a cependant pas à être satisfaite pour tous les champs possibles. En physique quantique, le vide peut avoir la complication d’un champ scalaire (de spin nul). Si ce champ a un couplage particulier avec lui-même, l’état d’énergie le plus bas n’est pas identique au néant. Le champ scalaire a une valeur moyenne non nulle.

Les interactions entre quarks et leptons ne peuvent se manifester, même le plus simplement possible, que sur la scène offerte par le vide. Et la structure du vide est telle que les symétries propres aux propriétés d’invariance de jauge que possèdent ces interactions peuvent se trouver en partie cachées.

Le vide dans la théorie électrofaible

C’est le cas dans la théorie électrofaible. C’est une théorie de jauge où quarks et leptons changent librement de saveur. Ils doivent donc tous avoir la même masse, nulle. Les bosons vecteurs, le W, le Z et le photon, ont tous une masse nulle. Néanmoins, le vide correspond à la présence d’un champ, le champ de Higgs , dont la valeur moyenne n’est pas nulle. En présence de ce champ, le W et le Z acquièrent une masse élevée, alors que le photon garde sa masse nulle. Les quarks et les leptons prennent leurs masses spécifiques par autant de couplages différents au champ de Higgs. L’accord avec l’expérience devient possible. Il reste aussi assez de symétrie dans la théorie pour l’élimination des infinités dans les calculs, tant redoutées. La théorie reste renormalisable. C’est la façon dont fonctionne le modèle standard. La théorie est fondamentalement simple. La complexité du vide amène la diversité observée.

Cette propriété du vide est, en fait, analogue à celle qu’on rencontre dans certains milieux. Le vide de la théorie électrofaible se comporte en effet comme un supraconducteur. Un métal supraconducteur ne peut pas être pénétré par un champ magnétique. La circulation de l’électricité sans résistance apparente en est une des conséquences. Un photon semble acquérir une masse à l’intérieur du supraconducteur et c’est celle-ci qui empêche sa pénétration

au-delà d’une fine couche superficielle. Cela résulte du couplage du champ électromagnétique à un champ scalaire, le champ de Cooper , qui baigne le supraconducteur. Ce champ est formé de paires d’électrons qui s’attirent par l’intermédiaire de leur couplage commun au réseau cristallin. Les paires d’électrons se comportent comme des bosons qui peuvent tous tomber dans le même état fondamental, décrit par le champ de Cooper. Cet état est brisé par une élévation de la température et, au-delà d’une température critique T c, le métal cesse d’être supraconducteur. Le champ de Cooper reprend une valeur moyenne nulle. On peut dire que la théorie de Glashow-Salan-Weinberg de l’interaction électrofaible est une formulation plus complexe, relativiste et non commutative – fondée sur le groupe mathématique SU(2) U(1) et non plus sur le groupe U(1) de l’électrodynamique –, de la théorie de Landau et Ginzburg de la supraconductivité.

Le W et le Z arrivent à peine à pénétrer le vide en acquérant leur grande masse. Ils ne peuvent pas, de ce fait, pénétrer et se propager dans le vide au-delà de distances de l’ordre de 10-18 m. Cette propriété du vide entraîne la faible portée des interactions faibles, c’est-à-dire leur disparition au-delà d’une certaine distance. Le champ de Higgs joue, pour le vide, le rôle du champ de Cooper dans le cas d’un supraconducteur.

Le vide se comporte comme un supraconducteur. Le champ de Higgs correspond-il à des états liés de paires de particules encore inconnues, agissant par l’intermédiaire d’interactions encore inconnues? C’est une des grandes questions ouvertes. Ce champ de Higgs ayant une valeur moyenne non nulle, les fluctuations quantiques par rapport à cette valeur moyenne ( 淋) ont des quanta que l’on peut associer à une nouvelle particule, le boson de Higgs. Il doit être neutre et de spin zéro, mais la théorie ne permet pas de prédire sa masse. On l’a cherché encore sans succès, les résultats du L.E.P. étant les plus précis. La limite inférieure de sa masse était de 25 GeV en 1991.

Si le vide se comporte en quelque sorte comme un milieu, on devrait pouvoir le changer, comme un supraconducteur devient conducteur à une température supérieure à une température critique T c, le photon perdant sa masse apparente pour le supraconducteur. Pour le vide, la température critique électrofaible doit être de l’ordre de 200 GeV. Au-delà, le vide devrait présenter une phase différente, c’est-à-dire que le W et le Z devraient perdre leur masse et être, comme le photon, des particules de masse nulle. On ne peut espérer atteindre de telles températures en laboratoire, mais elles ont dû être dépassées dans notre Univers entre le temps t = 0 du big bang hypothétique et 5 憐 10-11 seconde. On voudrait pouvoir étudier des collisions à des énergies bien supérieures à cette température critique pour approcher la dynamique de ce phénomène. C’est une des raisons qui nous poussent aujourd’hui à atteindre l’énergie du TeV (10+12 électronvolts) au niveau des quarks et des leptons.

Le vide expliqué par la chromodynamique quantique

Le vide de la chromodynamique a une complexité semblable. Dans ce cas, l’analogie est offerte par un supraconducteur. Le flux magnétique est remplacé par un flux de couleur. En effet, le vide interdit la propagation du champ de couleur, malgré la masse nulle du gluon. Il est opaque à la couleur. Seules sont tolérées des bulles présentes dans ce vide, où le flux de couleur se trouve enfermé entre deux sources de couleurs opposées. Cela peut être un quark et un antiquark (méson ) ou un quark et un «di-quark» (baryon ). Le vide exerce une pression sur ces bulles que sont les multiples hadrons connus. On peut essayer de déformer les bulles en donnant, par exemple, une grande impulsion à l’un des quarks; mais cette déformation coûte cher en énergie. On ne comprend encore que bien imparfaitement cette propriété du vide. La chromodynamique est simple et précise à faible distance (face=F0019 麗 10-17 m). Elle devient très difficile à exploiter à plus grande distance. Le couplage effectif entre un quark et un gluon devient alors de plus en plus fort. On ne peut plus considérer le rôle des processus mettant en jeu de plus en plus de gluons, comme on le fait avec succès en électrodynamique avec les photons (cf. chap. 3). Le couplage effectif est d’autant plus faible que la distance d’approche des particules est petite et d’autant plus fort que la distance est grande: cela résulte du fait que les gluons se lient entre eux directement.

Le vide est dans une phase opaque à la couleur, c’est-à-dire qu’il ne tolère que la propagation de particules globalement neutres vis-à-vis de la couleur, formées d’un quark et d’un antiquark (méson) ou de trois quarks (baryons).

La température critique est, dans ce cas, de l’ordre de 200 MeV, comme nous l’avons déjà dit. On peut espérer la réaliser en laboratoire dans des collisions d’ions lourds de grande énergie.

On doit obtenir un plasma de quarks et de gluons où la couleur circule librement. Plusieurs indications déjà recueillies en 1991 sont encourageantes. Rappelons que cet état plasma a dû être celui du big bang hypothétique de l’Univers naissant jusqu’à 5 憐 10-5 seconde.

Le quark et le gluon invisibles

La figure 4 illustre cette propriété du vide en tant que milieu. On y voit, côte à côte, un supraconducteur qui refuse la pénétration d’un flux magnétique et le vide qui empêche la pénétration d’un flux de couleur, qui se trouve ainsi confiné dans une bulle contenant un quark et un antiquark (méson).

Essayons d’arracher le quark à l’antiquark, par exemple par une collision à haute énergie avec un quark, ou par l’absorption d’un photon de grande énergie. La pénétration du vide «coûte» de l’ordre de 1 GeV par fermi de distance (10-15 m); on peut ainsi «placer» dans le vide une énergie très importante associée à la déformation de la bulle initiale. Les énergies en jeu sont grandes par rapport à l’énergie de masse d’un méson 神 (0,14 GeV). Rien n’empêche donc cette énergie de se matérialiser en mésons – qui, étant neutres vis-à-vis de la couleur, peuvent librement s’échapper dans le vide. C’est ce qui se produit. Alors qu’on essaie d’arracher le quark à l’antiquark, l’énergie «s’évapore» en mésons qui forment un jet de particules emportant avec elles toute l’énergie et l’impulsion placées sur le quark. On ne peut pas voir les quarks et les gluons: on voit, à la place, des jets spectaculaires de hadrons qui donnent une visualisation cinématique presque directe du phénomène primordial.

La figure 5 a montre les jets latéraux observés dans une collision proton-antiproton dans le S.p. 樂.S. (Superproton-antiproton Synchrotron) du Cern. Un quark du proton et un antiquark de l’antiproton se heurtent et partent latéralement avec des énergies énormes. Le vide étant opaque à la couleur qu’ils portent, ils ne sont que deux jets composés surtout de mésons 神. La figure 5 b donne la distribution angulaire de l’énergie cinétique associée au mouvement latéral (perpendiculaire à la ligne de choc des deux particules initiales) des multiples particules secondaires. On voit l’énergie énorme associée à ces deux jets.

Porteur de couleur, le gluon donne aussi un jet. Un événement à quatre jets montre deux gluons qui ont été émis. Ces jets hadroniques représentent la version moderne de l’expérience de Rutherford. Ils témoignent de l’existence de grains durs et minuscules à l’intérieur des particules en collision (proton et antiproton dans ce cas). Ces tout petits constituants se heurtant de plein fouet peuvent donner fréquemment ces «ricochets» à grand angle, comme les noyaux d’hélium sur les noyaux d’or à l’intérieur des atomes, dans l’expérience historique de Rutherford qui a mis en évidence le noyau atomique.

Les collisions de haute énergie ne sont pas la seule vision quasi directe que l’on puisse avoir des quarks et des gluons.

La figure 6 montre le spectre d’émission du charmonium. C’est un système fermé d’un quark charmé c et de son antiquark . Les deux quarks neutralisent leur charme respectif. Le charmonium n’a qu’un charme caché. Ce système c 縷 peut être excité dans différents états comme peut l’être le positronium (système connu de longue date, formé d’un électron et d’un positon) ou l’atome d’hydrogène (avec son proton et son électron). Le quark étant lourd (face=F0019 黎 1,5 fois la masse du proton), on peut bénéficier des simplifications correspondantes pour calculer les énergies des différents niveaux et prédire les radiations associées aux passages d’un niveau à l’autre. Les énergies de photons s’expriment en électronvolts pour le positronium et l’atome d’hydrogène et en centaines de mégaélectronvolts pour le charmonium. Le spectre d’émission de photons apporte une vision quasi directe du système quark-antiquark. C’est la version moderne de «l’atome d’hydrogène».

Le vide est complexe, tout au moins le vide «froid» qui nous entoure. Un quark ou un gluon libre y sont interdits. La structure en quarks est néanmoins claire et nette et assez bien comprise.

5. Comprendre la naissance de l’Univers

Comprendre de plus en plus finement la structure de la matière implique la connaissance de la physique à des énergies de plus en plus élevées (100 MeV à 10-15 m, 100 GeV à 10-18 m). Cela nous permet aussi de comprendre la naissance de l’Univers. Si nous vivons dans un Univers en expansion et la densité et la température (énergie moyenne par particule) sont d’autant plus élevées que l’on essaie de remonter vers le passé. Après le big bang, pendant lequel l’Univers se serait formé il y a environ 15 milliards d’années, la température décroît comme l’inverse de la racine carrée du temps. À 10-10 seconde, elle correspond à une énergie de 100 GeV, typique de la physique des particules.

La température décroissant, les bosons W et Z se désintègrent sans pouvoir être recréés par collision de particules (quarks et leptons), qui n’ont plus l’énergie nécessaire pour permettre leur formation. Quand la température tombe à 200 MeV, le vide cesse d’être transparent à la couleur. Quarks, antiquarks et gluons sont confinés dans des hadrons. Il y a alors un véritable carnage de nucléons et d’antinucléons (de quarks et d’antiquarks) – et il ne reste que le petit excédent de quarks (de l’ordre d’un milliardième) qui existait au départ. L’Univers a alors un peu moins d’une microseconde. Quand il a un dixième de seconde, la densité et la température tombent à un niveau tel que les neutrinos se dissocient du reste et s’échappent librement. Ils cessent alors d’assurer l’équilibre thermique entre protons et neutrons qui favorisent les premiers, un peu plus léger, à mesure que la température tombe. La température vaut alors 3 MeV. Quand l’Univers a une seconde, la température est de 1 MeV, électrons et positons s’annihilent en grand nombre et il ne reste que le faible excédent (un milliardième) d’électrons présent au départ... Nous ne donnons ici que quelques étapes d’une histoire que la physique des particules permet de reconstituer. Mais, avant, pourquoi ce très léger excédent de matière sur l’antimatière? La réponse est dans une physique à beaucoup plus hautes énergies pour laquelle nous n’avons encore que des hypothèses. Les théories actuelles permettent de pousser les scénarios jusqu’à 10-44 s (1019 GeV), quand la gravitation prend pleinement sa forme quantique en allant vers le passé et où, en allant vers le futur, l’espace et le temps commencent à prendre la forme dont nous avons conscience.

Le nombre de familles de neutrinos (N size=1 = 3) qui vient d’être mesuré (cf. Symétrie et diversité des particules , dans le chapitre 2) est directement lié à la proportion d’hélium et d’hydrogène contenue dans l’Univers, une proportion que l’évolution stellaire a peu changé depuis la fin de la phase de fusion qui débute, lentement d’abord, à 1 s, pour s’emballer et s’achever à 200 s. On pense que l’Univers contient une masse cachée de l’ordre de six fois supérieure à celle qui est aujourd’hui reconnue. C’est en physique des particules qu’on cherche sa nature et sa raison d’être.

6. Un bref historique

La physique des particules, telle qu’elle existe aujourd’hui, s’est singularisée, dans les années cinquante, en se séparant de la physique nucléaire, son objet d’étude propre étant non la structure du noyau de l’atome mais celle du proton, qui commençait à perdre son caractère élémentaire: ce dernier avait déjà une dimension reconnue; il pouvait être excité et se désexciter par émission de mésons. L’étude des interactions des rayons cosmiques faisait apparaître de nouvelles particules qui enlevaient au proton sa singularité première. Pour pénétrer à l’intérieur du proton, il fallait des énergies de choc bien supérieures à 100 MeV. C’est ce que permettaient d’obtenir les premiers grands accélérateurs de particules, les synchrotrons.

La physique des particules des années soixante

La première grande surprise, au début des années soixante, fut une prolifération énorme du nombre des hadrons, particules ayant des interactions fortes. Au cours de chocs avec des énergies dépassant largement les 100 MeV par particule, on ne brise pas le proton, mais on crée de nouvelles particules. L’énergie disponible se transforme en matière et antimatière. Les énergies mises en jeu pour pénétrer la structure étaient, pour la première fois, supérieures aux énergies de masse des hadrons. Certaines des particules produites se désintègrent par interactions faibles (temps de vie typique de l’ordre de 10-10 s). C’est le cas chaque fois qu’il faut pour cela changer la saveur d’un système de quarks. La plupart se désintègrent par interactions fortes (temps de vie typique de l’ordre de 10-23 s). Elles apparaissent toutes comme aussi élémentaires (ou complexes) les unes que les autres. On en distingue aujourd’hui plusieurs centaines de hadrons formés de quarks.

Murray Gell-Mann introduit la notion de quark et montre comment toutes ces particules peuvent être considérées comme des assemblages de quarks (un quark et un antiquark pour un méson et trois quarks pour un baryon). Le tableau 3 donne cette structure pour quelques hadrons (baryons et mésons).

Une expérience décisive est alors la découverte du grand oméga moins ( 行-) au B.N.L. (Brookhaven National Laboratory) en 1964: une particule formée de trois quarks étranges. Ses propriétés avaient pu être prédites. Le quark reste l’hypothèse de base et d’autant plus que l’on n’arrive pas à extraire les quarks des hadrons, quelle que soit l’énergie mise en jeu. Les propriétés des interactions fortes au niveau des hadrons sont alors comprises en termes d’échange de mésons et de baryons entre particules (dualité). Dans ce contexte, bootstrap (chaque particule est un état lié d’autres particules) et dualité sont les termes de référence. Les interactions faibles au niveau des particules sont comprises et interprétées par l’échange de W très massifs. Le W reste cependant encore une hypothèse.

Telle est la physique des particules vers la fin des années soixante.

C’est alors qu’une expérience réalisée au S.L.A.C. (Stanford Linear Accelerator Centre) de Stanford en Californie, en 1968, fait apparaître des diffuseurs durs, quasi ponctuels, à l’intérieur de protons soumis au bombardement d’électrons de hautes énergies. L’étude du phénomène à l’aide de diffusions d’électrons, de muons et de neutrinos montre que ces diffuseurs ponctuels ont toutes les propriétés attendues pour les quarks.

La physique des particules des années soixante-dix

On comprend comment les quarks peuvent se manifester à l’intérieur d’un hadron sans pouvoir en être extraits: c’est le cadre de la chromodynamique quantique. La théorie électrofaible est proposée par Sheldon Glashow, Abdus Salam, Steeven Weinberg et Gerhard ’tHooft et une de ses conséquences clés, l’existence d’un nouveau mode d’interaction faible sans échange de charge, l’interaction par courants neutres est découverte au Cern en 1973. L’année suivante, la découverte des nouvelles particules (dont le charmonium au B.N.L. et au S.L.A.C.), puis, en 1976, la découverte du upsilon 宅 (premier système de quarks b 累 ) au Fermilab à Batavia, Illinois, et celle des particules charmées au S.L.A.C. montrent toute la synthèse de la théorie des quarks. À la fin des années soixante-dix, les interactions fortes et les interactions faibles semblent comprises au niveau des quarks et des leptons. C’est le modèle standard sous sa forme actuelle.

La physique des particules des années quatre-vingt

Il reste cependant encore à obtenir les vérifications clés que sont la mise en évidence du W et du Z, et les spectaculaires jets hadroniques associés à la collision de quarks et de gluons dans des hadrons en collision. Ce sont les résultats obtenus au Cern en 1983.

A posteriori, les années cinquante apparaissent comme la découverte d’un nouveau monde (interaction entre mésons et nucléons, particules étranges...). Les années soixante représentent une recherche d’ordre et de simplicité dans un monde en explosion (prolifération des hadrons). Avec les années soixante-dix, la structure en quarks devient certaine et les interactions forte et faible sont comprises. Les années quatre-vingt apportent les multiples confirmations expérimentales souhaitées. Le modèle standard donne une vue compacte, précise et claire de la physique. La structure de la matière est bien comprise jusqu’au niveau de 10-18 m, le quark t étant détecté, mais le boson de Higgs se cache toujours. Physique des particules et astrophysique développent de nombreux contacts. Les modèles d’unification (la théorie des supercordes, en particulier) offrent le cadre de pensée le plus prometteur pour voir au-delà de l’expérience.

7. Les moyens de recherche

Il s’agit d’accélérer les particules élémentaires (électrons, protons) à des énergies de plus en plus élevées. Les développements technologiques permettent de construire des accélérateurs de plus en plus puissants dans des limites budgétaires acceptables. La figure 7 présente le diagramme de Livingston donnant l’énergie atteinte à différentes époques. On passe ainsi de 100 MeV (1950) à plusieurs dizaines de gigaélectronvolts (1975) et à des centaines de gigaélectronvolts en 1990.

Cela demande une grosse concentration de moyens, donc un tout petit nombre de gros laboratoires offrant des faisceaux de particules accélérées à un grand nombre d’utilisateurs extérieurs. La physique des particules demande aussi des collaborations importantes pour réaliser les détecteurs permettant d’analyser les collisions de haute énergie.

En Europe, de tels besoins impliquent une internationalisation des moyens de recherche, centrée sur le Cern, qui compte environ quatre mille utilisateurs.

Pour les années quatre-vingt-dix, ce qui compte dans le proton, ce sont les constituants quasi ponctuels qui s’y trouvent, les trois quarks, bien sûr, mais aussi les gluons et les paires quark-antiquark auxquels ils donnent naissance, et dont la chromodynamique permet de suivre l’évolution à mesure que la résolution augmente. L’énergie moyenne d’un quark ou d’un gluon (parton) correspond à une perte typique d’un ordre de grandeur de 10 par rapport à l’énergie du proton qui les contient.

Les accélérateurs

Les machines actuelles ou en projet (fig. 7), notamment les collisionneurs, permettent de poursuivre cette croissance exponentielle de l’énergie – et cela, semble-t-il, pour encore de nombreuses années à venir. Le Cern a fait œuvre de pionnier, en 1971, avec les I.S.R. (Intersection Storage Rings), où deux protons se heurtaient de plein fouet, puis avec l’accélération simultanée de protons et d’antiprotons dans le S.p. 樂.S. (anciennement S.P.S., Super Proton Synchrotron), en 1981. C’est grâce à cet outil que le W et le Z ont pu être découverts, car il fallait une énergie de l’ordre de 600 GeV dans la collision proton-antiproton pour obtenir la centaine de gigaélectronvolts nécessaire à une collision quark-antiquark pour la formation du W (81 GeV) et du Z (91 GeV). Le prix Nobel 1984 fut décerné à Carlo Rubbia et à Simon Van der Meer pour cette découverte. Le nombre de particules par faisceau dans les collisionneurs est cependant typiquement cent milliards de fois plus faible que le nombre d’Avogadro, qui donne l’échelle pour le nombre de particules disponibles dans une cible; donc un faisceau d’accélérateur est déjà du vide. Il faut alors compenser la rareté relative des événements par des détecteurs très performants. La photo montre l’ensemble des installations du Cern à Genève. On y distingue le synchrotron à protons P.S. (Proton Synchrotron) achevé en 1960. Avec ses 200 m de diamètre, il permet d’accélérer des protons jusqu’à 28 GeV. On y voit aussi le superproton synchrotron (S.P.S.), achevé en 1976; il a 2,2 km de diamètre et accélère des protons jusqu’à 450 GeV; c’est lui aussi qui accélère simultanément protons et antiprotons et maintient les deux faisceaux en circulation, protons et antiprotons se heurtant sans cesse de plein fouet. On y distingue enfin le L.E.P. (Large Electron Positron Collider), le plus grand accélérateur actuel du monde, avec ses 27 km de circonférence. C’est un collisionneur d’électrons et de positons, avec une énergie de choc de 100 GeV qui passe à 200 GeV en 1994. Le S.P.S. et le L.E.P. circulent tous deux sous terre dans des tunnels creusés dans une roche dure et stable sous-jacente.

Le L.E.P. est l’instrument idéal pour tester le modèle standard et trouver peut-être des désaccords signalant une nouvelle physique. La théorie électrofaible et le Z y jouent un rôle clé. Avec le L.E.P., le rythme a changé: on est passé des quelques centaines de Z observés jusqu’alors aux centaines de mille et bientôt de millions de Z qui seront disponibles. Quatre gros détecteurs (Aleph, Delphi, L3 et Opal: cf. photos) ont été installés sur quatre zones d’interactions, où les paquets d’électrons et de positons se heurtent de plein fouet. Chaque détecteur demande une collaboration de plusieurs centaines de physiciens.

Les détecteurs

Les détecteurs UA1 et UA2 ont permis de découvrir le W et le Z en 1983.

Le principe de base d’un détecteur de particules n’a que peu évolué avec le temps. Il s’agit de visualiser le passage d’une particule par un phénomène macroscopique amplifié qui a sa source dans l’ionisation (formation d’ions chargés) du milieu traversé par une particule chargée. Les particules neutres sont détectées par l’intermédiaire des particules chargées qu’elles accélèrent au cours de collisions.

Ce qui a par contre beaucoup changé, c’est la sophistication et la taille de ces détecteurs qui permettent d’attendre une bonne précision sur les données cinématiques propres à de nombreuses particules de grande énergie; et surtout le taux d’enregistrement des informations qui permet, à l’aide d’ordinateurs très performants, de choisir et de stocker les événements recherchés parmi un grand nombre de collisions. On mesure les impulsions par la courbure des trajectoires dans un champ magnétique et les énergies par l’intermédiaire de calorimètres. La vitesse peut aussi être mesurée directement par l’émission de lumière (effet Cerenkov) dans la traversée d’un gaz. La construction d’un détecteur est souvent plus complexe et n’est pas beaucoup moins coûteuse que celle de l’accélérateur qu’il permet d’exploiter.

Les détecteurs modernes utilisent une électronique très sophistiquée et impliquent de nombreux ordinateurs. Cela est nécessaire pour analyser très vite des événements complexes, avec un grand nombre de particules produites, et savoir ce qu’il faut garder ou rejeter dans une recherche d’événements rares, particulièrement intéressants, au milieu d’un grand nombre de collisions.

Il convient de rendre hommage aux grands détecteurs du passé et, en particulier, aux chambres à bulles qui ont eu un rôle clé en physique des particules durant les années soixante et soixante-dix. La figure 8 montre une collision neutrino-électron observée dans la chambre à liquide lourd Gargamelle. Le neutrino entre (invisible) et ressort (invisible), mais un électron est accéléré et rayonne des photons qui se matérialisent en paires électron-positon. Cet événement fut une des premières mesures irréfutables de l’interaction par courants neutres (échange de Z dans une collision neutrino-électron). La figure 9 montre la production, dans la chambre à bulles, d’une particule charmée par collision de neutrinos et sa désintégration en cascade par l’intermédiaire d’une particule étrange. Une seule photo de chambre à liquide lourd ou à bulles contient beaucoup de physique! Le système d’obtention des événements relativement lents, par compression et expansion du liquide, a cependant conduit à l’abandon de ces détecteurs, si précis et précieux en leur temps.

Vers une évolution de la physique des particules

Le modèle standard avec ses trois familles de quarks et de leptons, ses bosons vecteurs intermédiaires médiateurs d’interactions (découlant d’un principe d’invariance de jauge SU(3) SU(2) U(1)), et son vide, compliqué par la présence du champ de Higgs, est l’achèvement de quarante années de recherche. On comprend la nature profonde des interactions fortes et électrofaibles. On comprend la structure en quarks des hadrons. On a une interprétation fidèle et prédictive de la structure de la matière à une résolution de 10-18 m, soit pour des énergies de choc de l’ordre de 100 GeV.

Les années quatre-vingt-dix permettront d’atteindre l’échelle des 10-18 m avec une vue beaucoup plus précise de la physique et peut-être d’observer, du coup, des déviations par rapport aux prédictions du modèle standard qui seraient riches en enseignement. Le boson de Higgs manque encore à l’appel; il devrait être observable au Cern si sa masse est inférieure à 80 GeV.

Il convient cependant d’envisager dès à présent une exploration détaillée au niveau de 10-19 m, soit avec des énergies de choc de 1 000 GeV (1 TeV) et au-delà. On pense que la physique doit changer d’aspect entre 100 GeV et 1 TeV: cela est lié aux symétries partiellement cachées qui sont au cœur du modèle standard.

Il y a, d’une part, la brisure de la symétrie de la théorie électrofaible et la dynamique sous-jacente au champ de Higgs. Des phénomènes nouveaux devraient apparaître au-delà de 200 GeV, et certainement avant le TeV. Il est particulièrement intéressant, dans ce contexte, d’étudier les collisions de W et de Z, ces particules étant rayonnées par des quarks (ou électrons) en collision au niveau du TeV.

Il y a, d’autre part, la possibilité d’une théorie d’unification suggérée par la grande similitude des interactions fortes, électromagnétiques, et faibles au niveau des quarks et des leptons. On ne l’attend certes dans toute sa force qu’à 1015 GeV, mais ses effets quantiques devraient fortement perturber la physique des interactions électrofaibles avant 1 TeV, à moins qu’ils ne s’annihilent grâce à des effets compensateurs mettant en jeu d’autres particules, et peut-être d’autres interactions. Elles devraient alors se manifester avant 1 TeV. Une symétrie possible entre fermions et bosons (la supersymétrie) est parmi les candidats. Nous n’avons que des hypothèses. Ces aspects prometteurs poussent à atteindre le TeV, ce qui peut être possible avant l’an 2000. Un collisionneur électron-positon d’une telle énergie n’est pas encore concevable. Avec des protons, il faut attendre une énergie dix fois supérieure pour disposer de 1 TeV au niveau des quarks. Cela est techniquement possible aujourd’hui (cf. fig. 7). En 1994, les États-Unis ont abandonné leur projet de collisionneur proton-proton de 40 TeV, le Superconducting Super Collider (S.S.C.), avec une longueur d’anneau de près de 90 km, mais en Europe, l’installation d’un collisionneur proton-proton au-dessus du L.E.P., dans le tunnel existant, permettrait d’atteindre 16 TeV avec des aimants supraconducteurs: le L.H.C. (Large Hadron Collider). De par l’intensité particulièrement forte de ses faisceaux et l’infrastructure déjà existante, il offrirait une complémentarité intéressante, en temps et en programme, de recherche avec la machine américaine. Ces machines domineront la physique des particules vers l’an 2000 et au-delà.

D’ici à l’an 2000, on voit donc une exploration détaillée au niveau de 10-18 m, et peut-être le début d’une exploration au niveau de 10-19 m. Il s’agit de comprendre la façon dont la nature brise des symétries, dont la présence nous apparaît comme fondamentale. Ces symétries restent très présentes comme le montre la compréhension atteinte pour les interactions fortes et électrofaibles. Elles sont cependant en partie cachées, comme en atteste la grande variété des masses des particules élémentaires. Il s’agit de comprendre les propriétés surprenantes que l’on est amené à attribuer au vide, propriétés qui ont joué un rôle clé à la naissance de l’Univers.

Encyclopédie Universelle. 2012.

Игры ⚽ Нужно решить контрольную?

Regardez d'autres dictionnaires:

  • Introduction à la relativité générale — Traduction à relire Introduction to gen …   Wikipédia en Français

  • QUANTIQUE (MÉCANIQUE) - Propriétés fondamentales — La mécanique quantique est aujourd’hui une théorie parfaitement «classique», dont la cohérence n’a fait que se renforcer au cours des cinquante dernières années. Après un laborieux enfantement au début du XXe siècle, elle accède à la maturité… …   Encyclopédie Universelle

  • MODÈLE — Le langage de la philosophie aiderait peu à éclairer l’origine de la notion de modèle, qui a reçu un emploi très large dans la méthodologie des sciences. Cette origine est technologique: le modèle est d’abord la «maquette», l’objet réduit et… …   Encyclopédie Universelle

  • PHYSIQUE - Les fondements et les méthodes — Si l’on en croit l’étymologie, la physique (du grec physikos ) constitue la science de la Nature. C’est essentiellement l’acception que l’on adoptera dans cet article, ce qui amènera à englober dans la catégorie générale de la physique certaines… …   Encyclopédie Universelle

  • Théorie des cordes — Les niveaux de grossissements : monde macroscopique, monde moléculaire, monde atomique, monde subatomique, monde des cordes. La théorie des cordes est une théorie traitant de l une des questions de la physique théorique : fournir une… …   Wikipédia en Français

  • Theorie des cordes — Théorie des cordes Les niveaux de grossissements : monde macroscopique, monde moléculaire, monde atomique, monde subatomique, monde des cordes. La théorie des cordes est l une des voies envisagées pour régler une des questions majeures de la …   Wikipédia en Français

  • Big-Bang — Pour les articles homonymes, voir Big Bang (homonymie). Chronologie du Modèle standard de la cosmologie …   Wikipédia en Français

  • Big-bang — Pour les articles homonymes, voir Big Bang (homonymie). Chronologie du Modèle standard de la cosmologie …   Wikipédia en Français

  • Big Bang — Pour les articles homonymes, voir Big Bang (homonymie). Le Big Bang[1] est un modèle cosmologique utilisé par les scientifiques pour décrire l origine et l évolution de l univers[2]. Il a été initialement proposé en 1927 par le chanoine catholiq …   Wikipédia en Français

  • Big Bang chaud — Big Bang Pour les articles homonymes, voir Big Bang (homonymie). Chronologie du Modèle standard de la cosmologie …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”